Suchergebnisse Resultate 21 bis 30 von 598 (max. Score: 1)


Deep_Instinct_Beyond_the_Endpoint_Datasheet (pdf)

Deep Instinct Beyond the EndpointDATASHEETThe endpoint is not your only attack vector; threat actors are continually searching for new ways to infiltrate your hybrid environment. Files stored in the cloud, uploaded into your custom applications, and downloaded from the internet all expand your attack surface and increase the risk of a breach. Through the power of deep learning, Deep Instinct meets the attacker earlier to prevent malware from being uploaded into your environment — without requiring agents. Using our deep learning static analysis, Deep Instinct scans in-transit files to ensure the integrity of your local, private, and public cloud storage, as well as your custom applications, and prevents malware at the web gateway – reducing latency and stopping more threats before they hit your endpoints. Deep Instinct preserves the integrity of the files in your hybrid environment to ensure business continuity, improve SOC efficiency, and increase compliance by preventing known and unknown threats including ransomware, zero-day threats, and file- and script-based attacks, earlier and faster. Deep Instinct for Cloud With the acceleration of digital transformation, enterprises are experiencing a high volume of file transfers into and out of their public and private cloud storage. Public cloud providers are responsible for the security of the cloud, but you are responsible for the security of what is stored in the cloud. Preventing malicious content from entering cloud storage is critical to lowering the risk that an infected file could spread malware. Deep Instinct prevents malicious files from uploading to, or downloading from, your public or private cloud storage. Prevent Attacks Across Malicious File Uploads and Downloads for Cloud, Web Gateways and Applications WORLD'S ONLY DEEP LEARNING BASED CYBERSECURITY SOLUTIONPREVENTS>99% KNOWN, UNKNOWN, ZERO-DAY THREATSONLY 1-2 UPDATES NEEDED PER YEARPREVENTS THREATS IN<20MSChallenge: Files stored in the cloud could be malicious  Infected files stored in the public or private cloud increase risk of a breach Opportunity: Ensure the integrity of the files stored in the cloud  Reduce the risk that malware-infected files are a hidden source of infection  Prevent malware from spreading to production systems upon download  Lower the probability of a weaponized file executing a ransomware or other attack upon download 2 Deep Instinct Beyond the EndpointDeep Instinct for Applications To meet the needs of your business, your organization has custom-built or modified applications. Applications that require a high number of files to be uploaded and downloaded by employees or customers pose a potential risk. A challenge for organizations who modify or develop their own custom applications is that they often lack consistent security standards. Deep Instinct scans in-transit files to ensure that they are uploaded through your custom applications and downloaded to your customers free of malware.Challenge: Weaponized files pose risk to users and customers  Increased risk from both internal and external file uploads and downloads through your custom applications Opportunity: Decrease risk, reduce attack surface  Meet the scale requirements for scanning high- volume applications for malware without introducing latency  Prevent the introduction of malware into your production environments  Increase assurance that your applications will not be a source of infection for your end users or customersAction taken based on rule (delete/quarantine)File upload to Cloud RespositoryFile AllowedREST APILocal file server, Private or Public CloudManagement ConsoleBenefits  Prevents malicious files from uploading into public or private cloud storage. Keeps malware infected files from reaching production systems. Improves existing security solutions by reducing burden on the endpoint.How it works: When a file is uploaded to a public or private cloud, or a local file server, a trigger will call Deep Instinct to scan the file and return a verdict of malicious or benign and the file is either blocked or allowed. Benefits  Reduces latency associated with traditional AV file scanning.  Provides consistency of security standards across all applications.  Scales to the needs of high volume transaction applications.How it works: When a file is uploaded through an application, a trigger calls Deep Instinct to scan the file. If the file is deemed malicious the file is blocked, and according to the policy set by the organization, the file will be deleted or sent to a sandbox.Deep Instinct Beyond the EndpointDeep Instinct for Web Gateways Unknown malware bypasses traditional AV defenses at the web gateway and increases the reliance on the endpoint to catch threats. Existing controls have a low probability of preventing never-before-seen threats and increase latency thus adding an .additional burden on security analysts who are already overwhelmed with alertsIf you are currently using a web proxy to filter traffic, Deep Instinct will scan files to prevent users from accessing malicious files from the internet. Deep Instinct, deployed with ICAP, will prevent the download of malicious files from the web faster and more accurately using our deep learning static engine to catch >99% of known and unknown threats. Challenge: Legacy AV and ICAP solutions will not stop unknown threats  Threats missed at the proxy are then dependent upon endpoint detectionOpportunity: Reduce the burden on the endpoint  Reduce the operational and investigation cost of existing endpoint solution  Reduce latency associated with file scans to improve user experience  Provide greater protection with your existing infrastructureBenefits  Prevents a greater number of known and unknown threats at the web gateway.  Improves end user experiences by reducing latency associated with Legal AV solutions.  Reduces malware at the endpoint and the burden on security analysts overwhelmed with alerts.How it works: Your internal user requests access to a file from the internet. That request first hits the proxy and is then offloaded to the ICAP Server to make the benign vs malicious decision instantaneously and the file is either returned or denied. The end user will see the request come back or see a request denied message.Deep Instinct takes a prevention-first approach to stopping ransomware and other malware using the world’s first and only purpose built, deep learning cybersecurity framework. We predict and prevent known, unknown, and zero-day threats in <20 milliseconds, 750X faster than the fastest ransomware can encrypt. Deep Instinct has >99% zero-day accuracy and promises a <0.1% false positive rate. The Deep Instinct Prevention Platform is an essential addition to every security stack— providing complete, multi-layered protection against threats across hybrid environments.www.deepinstinct.com info@deepinstinct.com© Deep Instinct Ltd. This document contains proprietary information. Unauthorized use, duplication, disclosure or modification of this document in whole or in part without written consent of Deep Instinct Ltd. is strictly prohibited.Adobe InDesign 16.4 (Macintosh) Adobe PDF Library 16.0


Deep_Instinct_Endpoint_Security_Datasheet (pdf)

Deep Instinct for EndpointDATASHEETToday’s adversaries have time on their side—you don’t.From the moment malware executes on the endpoint, it’s a race against time to stop it. Traditional security solutions struggle to detect and respond quickly to unknown threats, taking minutes, hours, or even days—during which time the malware has succeeded, and your environment has been breached. Legacy AV, signature, rule, and heuristics-based tools can prevent known attacks but are largely ineffective against unknown and zero-day threats.Deep Instinct prevents ransomware and other known, unknown, zero-day threats in <20ms – before an attack can execute on the endpoint.With a lightweight, agent-based solution, Deep Instinct for Endpoint prevents >99% of known and unknown malware, dramatically reducing false positives, improving the effectiveness of your existing security solutions, and lowering your organization’s overall risk. Your security teams will spend less time responding to benign alerts and more time focusing on higher-value priorities like threat hunting, patching, and hardening your defenses.The Deep Instinct Difference: Deep Learning vs Machine LearningEndpoint Detection and Response (EDR) solutions rely on basic machine learning. This approach requires the attack to begin executing before it can be detected. Ransomware, for example, begins to encrypt in 15 seconds, but the average EDR solution can take minutes or hours to detect —too long to prevent a breach. By the time EDR tools detect an attack, droppers and artifacts have already installed on your network endpoints.With multiple deep learning engines, Deep Instinct’s multi-layered approach to prevention provides the highest efficacy and the fastest detection and prevention. This applies to both known and never-before-seen malware, as well as fileless, in-memory, and script-based attacks. Deep Instinct can also detect suspicious behavior to improve your threat hunting, investigation, and root- cause analysis.Preventing Unknown Attacks in <20msProduct Benefits Prevents known, unknown, and zero-day threats in <20ms Saves security teams time by dramatically reducing false positives to <0.1% Ensures malware does not execute on your endpoint Stops multi-stage, complex ransomware attacks  Enacts layered prevention against the most complex attacks Protects against adversarial AI Does not require cloud lookupWORLD'S ONLY DEEP LEARNING BASED CYBERSECURITY SOLUTIONPREVENTS>99% KNOWN, UNKNOWN, ZERO-DAY THREATSONLY 1-2 UPDATES NEEDED PER YEARPREVENTS THREATS IN<20MS2 Deep Instinct for EndpointDeep Instinct for Endpoint The moment an attacker attempts to land a malicious payload on their target endpoint, Deep Instinct for Endpoint prevents it— before it executes. Deep Instinct has pioneered the use of deep learning in cybersecurity to prevent known and unknown malware, zero-day exploits, ransomware, and common script-based attacks for the broadest range of file types, faster and with fewer false positives versus security tools that rely on signatures, heuristics, or basic machine learning.Predict and Prevent: Pre-execution Static Analysis Prevent >99% of known and unknown malware including ransomware, zero-day, file-based, and script-based attacks with Deep Instinct’s static analysis engine.  Known malware  Unknown malware & variantsScript Control Coverage  PowerShell  JavaScript  VBScript  Macros  HTML applications (HTA files)  rundll32On-Execution: Dynamic and Behavioral Analysis Using a multi-layered approach to prevention, Deep Instinct employs additional layers of dynamic and behavioral analysis to detect and automate responses to the most advanced threats, including the following:  Fileless attacks  Remote Code Injection (Reflective .NET, Reflective DLL)  Known, Unknown Shellcode  Credential Theft  Anti-AMSI Bypass  Credential Dumping File-based attacks  Zero-day exploits Ransomware  Common Scripts  Spyware, including banking trojans, keyloggers, and droppers Advanced scripts like unknown shellcode  Multi-stage attacks  Active Adversarial AI attacks In addition, Deep Instinct provides context to understand the severity and tactics of a threat:  Alerting on suspicious events for threat hunting  Mapping to MITRE ATT&CK for threat context  Conducting reputational analysis Post-Execution: Automated Analysis Deep Instinct includes optional automated and reputational analysis which can override decisions based on policy and imported allow lists.Product ArchitectureStatic Analysis File Types  PE  PDF  Office  Macro  RTF  SWF  JAR  TIFF  Fonts  Mach-O  ELF  APK JTD  HWP  LNKManagement ConsoleEvent reporting and details formonitoring and alertingEDR SIEM SOARReputation EngineBrainRe st A PI , S ys lo g SMTPDeep Instinct LabsDeep Instinct Neural NetworkPrevented Malware <20msENDPOINTSDeep Instinct for EndpointSupported Virtual EnvironmentsAmazon WorkspacesCitrix Hypervisor and XenDesktopVMware ESX and HorizonMicrosoft Hyper-VAutomate Responses and Integrate with SIEM, EDR, SOAR All prevented events are sent to the Deep Instinct Console and malware is instantly classified to provide context into the attempted attack. Organizations can enact a manual or automated response to achieve the following:  Isolate the machine  Quarantine/Delete/Restore  Update policy: allow and restore (Hash, Certificate, Folder, Script, Process) Supported SystemsWindowsmacOsAndroidChrome OSLinuxDeep Instinct takes a prevention-first approach to stopping ransomware and other malware using the world’s first and only purpose built, deep learning cybersecurity framework. We predict and prevent known, unknown, and zero-day threats in <20 milliseconds, 750X faster than the fastest ransomware can encrypt. Deep Instinct has >99% zero-day accuracy and promises a <0.1% false positive rate. The Deep Instinct Prevention Platform is an essential addition to every security stack— providing complete, multi-layered protection against threats across hybrid environments.www.deepinstinct.com info@deepinstinct.com© Deep Instinct Ltd. This document contains proprietary information. Unauthorized use, duplication, disclosure or modification of this document in whole or in part without written consent of Deep Instinct Ltd. is strictly prohibited. Terminate the process  Clean the registry to remove persistence  Send prevented events to a sandbox for further analysisDeep Instinct integrates with your SIEM, SOAR, EDR or other existing security tools via REST API, Syslog, and SMTP to improve investigation, remediation, and threat hunting.Additional Features Deep Instinct combines our leading cyber-prevention capabilities with intuitive feature sets that help our customers save time and work smarter. Professional UI and Dashboard Our easy-to-navigate and highly intuitive management console can be customized to present what is most important to the authorized end user.Built-In Reporting Automated and ad hoc threat and trend reporting.True Multi-Tenancy Native multi-tenant solution for Partners, MSPs, and MSSPs keeps all data safe and isolated from cross-contamination and administers multiple environments from one, centralized console.Enhanced Security Full audit logging/recording of all admin actions, role-based access control, 2FA, and SAML integration. Group-Based Policy Configuration of security policies based on a variety of manual or automated criteria, including naming convention, IP, AD, OU, and more.Adobe InDesign 16.4 (Macintosh) Adobe PDF Library 16.0


Deep_Instinct_Prevention_Platform_Solution_Brief (pdf)

SOLUTION BRIEFThere are 350,000 new pieces of malware discovered daily—and this number is growing exponentially. Zero-day, ransomware, filed-based, fileless, supply chain, and adversarial AI attacks continue to morph and evade detection, making it exceedingly difficult to prevent bad actors from infiltrating your hybrid network. An innovative prevention-first approach—made possible by deep learning—is the path forward to take back control. With work-from-anywhere becoming the new normal combined with the continued evolution of digital transformation and distributed networks, computing has moved closer to the edge. Protecting your endpoints has never been more important. But it’s not just the endpoint. Bad actors can infect systems through files stored in the cloud, files uploaded through applications and downloaded to customers, and files your end users are downloading from the internet. Legacy AV will only prevent known threats. And EDR alone is not enough to stop the unknowns before they are executed on your network. We must rethink our approach to prevention. The Deep Instinct Prevention Platform The Deep Instinct Prevention Platform stops known, unknown, and zero-day threats with the highest accuracy and lowest false-positive rate in the industry. For your organization, this means reduced risk, greater SOC efficiency, and the knowledge that attackers have lost their advantage. With >99% known, unkno wn, and zero-day threat accuracy, a guaranteed <0.1% false positive rate, plus a $3M ransomware warranty backed by Munich Re, the Deep Instinct Prevention Platform meets the promise of true prevention. Deep Instinct prevents threats prior to execution, unlike detection and response solutions that look for behaviors after the attacker has already installed droppers and artifacts on your network. Deep Instinct’s Prevention Platform reduces the risk of a breach by meeting the attackers earlier and stopping threats 750x faster than the fastest known ransomware can begin to encrypt. Deep Instinct prevents attacks at the endpoint with end-to-end static and multi-layered dynamic analysis. To meet the attacker even earlier, Deep Instinct also prevents malware beyond the endpoint by scanning the in- transit files of your custom applications and workflows, as well as local, private, and public cloud storage and web gateways to prevent the upload or download of malicious files while ensuring the integrity of your environment. Deep Instinct Powered by Deep Learning Deep Instinct is the only cybersecurity company leveraging a deep learning-based neural network that autonomously learns and dynamically improves as it’s fed more data. Deep learning is the most advanced form of AI, inspired by the brain’s ability to think and learn over time. Our vast neural network has been trained for more than five years on hundreds of millions of files to autonomously prevent threats. Deep Learning differs from basic machine learning in several critical ways: Basic machine learning requires a human domain expert, making it slow and prone to error, and is only trained on 2% of available data. Deep learning trains on 100% of available raw data and can make non-linear correlations of the data automatically. With deep learning-based neural networks specifically architected for cybersecurity, decisions are made faster, more accurately, and with much greater efficacy. A deep learning model is self-sufficient and does not require frequent cloud updates or constant human intervention. Ultimately, deep learning is what will enable organizations to make prevention a reality, predicting and stopping threats before they execute and compromise your environment.STOP RANSOMWAREBEFORE IT ENCRYPTSPREVENTS>99% KNOWN, UNKNOWN, ZERO-DAY THREATSGUARANTEES <0.1%* FALSE POSITIVE RATE<20MS MALWARE PREVENTIONDeep Instinct Prevention Platform*Applies to endpoint only. Integrates with existing security solutions to improve efficiency, effectiveness, and focus on what really matters – stopping attacks.  Reduces burden on security teams to sift through false positives  Improves threat hunting capabilities with high-fidelity alerts and suspicious activity rating Product DifferentiatorsDeep Instinct Prevention Platform The Deep Instinct Prevention PlatformDeep Instinct: Beyond the EndpointIn-transit file scanning Deep Instinct understands that the endpoint is not your only attack vector. Malicious files can unknowingly be uploaded to your hybrid, distributed environment, or downloaded to your customers. Deep Instinct prevents malicious files by scanning files in-transit to ensure the integrity of your local, private, and public cloud storage and your custom applications, and prevents malicious file downloads at the web gateway. Deep Instinct for Cloud Infected files stored in public or private clouds increase the risk of a breach upon download. Deep Instinct prevents malicious files from uploading to, or downloading from, your public or private cloud storage. Deep Instinct for Applications Your organization is at increased risk from both internal and external file uploads through your custom applications. Deep Instinct scans in-transit files to ensure that the files uploaded through your custom applications and downloaded to your customers are free of malware. Deep Instinct for Web Gateways Legacy AV and ICAP solutions will not stop unknown threats at the web gateway. If you are currently using a web proxy to filter traffic, Deep Instinct will scan files to prevent users from accessing malicious files from the internet. Deep Instinct connects with the ICAP protocol to become the ICAP server and uses our deep learning static engine to catch >99% of both known and unknown malware.Deep Instinct for Endpoint Deep Instinct for Endpoint provides end-to-end, multilayered security. The moment an attacker attempts to land a malicious payload on their target endpoint, Deep Instinct prevents it – before it executes Pre-execution: Static Analysis Prevent >99% of known and unknown malware, including ransomware, zero-day, filed-based, and script-based attacks with Deep Instinct’s static analysis engine.  Known malware  Unknown malware & variants  File-based attacks On-execution: Dynamic and Behavioral Analysis Using a multi-layered approach to prevention, Deep Instinct employs additional dynamic analysis layers to detect and automate responses to the most advanced threats, including the following:  Fileless attacks like malicious code injection and credential theft  Advanced scripts like unknown shellcode  Multi-stage attacks  Active Adversarial AI attacks In addition, Deep Instinct provides additional context to understand the severity and tactics of a threat, including:  Suspicious events for threat hunting  MITRE ATT&CK mapping Post-Execution: Automated Analysis In the last layer of automated analysis, Deep Instinct can override prevent decisions based on reputation or policy. All prevented events are sent to the Deep Instinct console and can be integrated with your SIEM, SOAR, EDR, or other security solutions via REST API, Syslog, or SMTP. Zero-Day  Ransomware  Common Scripts © Deep Instinct Ltd. This document contains proprietary information. Unauthorized use, duplication, disclosure or modification of this document in whole or in part without written consent of Deep Instinct Ltd. is strictly prohibited.www.deepinstinct.com info@deepinstinct.comAdobe InDesign 16.4 (Macintosh) Adobe PDF Library 16.0


Digitalisierung mit Wow-Effekt_Wirtschaft zwischen Nord- und Ostsee - April 2021 (pdf)

54 Verlagsspecial 04/21VerlagsspecialVerlagsspecial VerlagsspecialVerlagsspecial Verlagsspecialspeichern. Zu den IT-Systemen gehören Endgeräte, welche die Nutzer verwenden, wie zum Beispiel PCs, Notebooks, Tablets und Smartphones. Dieser Teil der IT-Sicherheit wird als Endpoint Security bezeichnet. Und auch die Betriebssysteme und Anwendungen, die auf den Endgeräten laufen, sollten in der IT-Sicherheit be- rücksichtigt sein, mittels Betriebssystemsicherheit und Applikationssicherheit. Der Schutz der IT-Systeme vor Ausfall und die notwendige Belastbarkeit der IT-Syste- me ist maßgeblich für die Aufrechterhaltung des Ge- schäftsbetriebs.Sicher bis ins Netz Darüber hinaus schützt die IT-Sicherheit die Vernet-zung bis ins Internet. Die Endgeräte und Anwendungen sind heute in der Regel über Netzwerke miteinander verknüpft. Die Vernetzung kann dabei über das firme- ninterne Netzwerk hinausgehen und Verbindungen über das Internet einschließen. An dieser Stelle muss an Internetsicherheit und an Cloud-Sicherheit gedacht werden, da viele Anwendungen und IT-Ressourcen in- zwischen als Cloud-Dienst bezogen werden.Cyber-Bedrohungen, wie etwa Hackerangriffe auf IT- Systeme, müssen bei der Planung und Umsetzung der IT-Sicherheit ebenfalls mit bedacht werden. Dabei be- treffen Cyberrisiken Unternehmen aller Art, Größe und Branchen. Schäden durch Hackerangriffe oder unzurei- chende Datensicherung, aber auch Wirtschaftsspiona- ge können existenzbedrohend sein. Letztendlich wird auch der Nutzer selbst durch die IT-Sicherheit geschützt.Datensicherheit nicht gleich IT-Sicherheit Im Gegensatz zur Datensicherheit geht es in der IT-Sicherheit nicht nur um personenbezogene Daten, für die der rechtlich geforderte Datenschutz Sicherheits- maßnahmen verlangt. Es geht vielmehr um alle Arten von Informationen, die es zu schützen gilt.„Speziell im Vergleich von kleinen mit mittelgroßen Unternehmen (KMU) besteht eine Diskrepanz zwischen der Bedeutung und tatsächlicher Umsetzung von IT- Sicherheit. Darüber hinaus kann eine oftmals vorhan- dene Unsicherheit von KMU über bestehende Risiken und angemessene Lösungen festgestellt werden. Un- ter anderem führen Verantwortliche an, dass sie ange- sichts vorhandener hochspezifischer Lösungen oftmals Schwierigkeiten haben, die für sie relevanten Angebote herauszufiltern“, heißt es auf der BITMi-Website unter Verweis auf die WIK-Studie vom Januar 2020.In der Digitalisierung steckt ein großes Potenzial, das ausgeschöpft werden will. Vor allem kleine und mittel- ständische Unternehmen können davon profitieren und Möglichkeiten für Wachstum und Innovation nutzen.VerlagsspecialmIT Sicherheit zu HauseDigitales Arbeiten ist durch die Pandemie Grundvoraussetzung für das Fort-bestehen vieler Unternehmen geworden. Nun wird das „Homeoffice“ auch von der Politik gefordert, bringt neue Flexibilität, vereinfacht die Work-Life-Balance und schont die Umwelt durch den Wegfall des Arbeitsweges. Elementarer Bau-stein dafür ist ein ganzheitliches Modern-Workplace-Konzept in Verknüpfung miteffizienter Kommunikation über modernste Collaboration Tools. Unabhängig vonStandort und Endgerät bedarf es einer zuverlässigen Erreichbarkeit. Moderne Zusammenarbeit setzt einfaches Teilen und zeitgleiches Bearbeiten von Infor-mationen und Daten sowie Abstimmungsmöglichkeiten in Chats, Channels und per Video voraus, wobei vertrauliche Daten stets vor Angriffen durch ein Se-curity-Konzept geschützt sein müssen – insbesondere bei der Nutzung privater Endgeräte als Arbeitsmittel. Wir raten zur Nutzung von Zugriffsberechtigungen, sicheren Verbindungen, verlässlichen Backup-Lösungen und der Sensibilisierungder Mitarbeiter für Datenschutz und -sicherheit. Als Partner für Digitalisierung steht IT-KONTOR für individuelle Lösungen durch den Einsatz modernster Technik und breitem Know-how. Unser Portfolio reicht von Beratung, über (Sicherheits-) Lösungen, das Angebot eigener Cloud-Pro-dukte sowie Hard- und Softwarebeschaffung. Als Teil der Dierck Unternehmens-gruppe gewährleisten wir ein flächendeckendes Servicenetz und ganzheitliche Lösungen.Brauchen Sie Unterstützung bei der Bereitstellung sicherer mobiler Arbeits-plätze oder weiteren Digitalisierungsmöglichkeiten in Ihrem Unternehmen? Wir beraten Sie gerne – auch aus dem Homeoffice.IT-KONTOR GmbH Neustadt 56 • 24939 Flensburg Tel.: +49 461 318900-0 E-Mail: info@it-kontor.com www.it-kontor.com ww.facebook.com/it.kontorVon Watt bis WLAN - Ihr Partner für DigitalisierungEin Unternehmen derAnzeige830005167041 IT-Kontor_185x128.indd 1830005167041 IT-Kontor_185x128.indd 1 05.03.21 09:4805.03.21 09:48VerlagsspecialVerlagsspecialVerlagsspecialDigitalisierung mit Wow-Eff ektEntwickeln Sie mit uns erfolgreich Ihr digitales Produkt. Schaff en Sie Begeisterung bei Ihren Kunden und Ihrem Team.consist.de/agil830005194041 Consist_185x84.indd 1830005194041 Consist_185x84.indd 1 11.03.21 08:4711.03.21 08:47AnzeigeDigitalisierung mit Wow-Effekt AnzeigeDigitalisierung mit Wow-Effekt Geschäftsprozesse zu digitalisieren bzw. neue Geschäftsideen digital umzuset- zen, ist nicht nur ein Thema für Groß- unternehmen und Konzerne, sondern ist auch für viele mittelständische Unter- nehmen von zentraler Bedeutung. Ein agiles Vorgehen hat sich bewährt, wie viele Praxisbeispiele zeigen. Consist bietet Unternehmen in diesem Umfeld langjährige Erfahrung und das notwen- dige Know-how in Methodiken und Technologien für Digitalisierungspro- jekte, die begeistern und überzeugen.Auf der einen Seite stehen der Wille und die wirtschaftliche Notwendigkeit, gewohnte Geschäftsprozesse digital zu überdenken. Auf der anderen Seite steht die Frage nach dem Risiko des finanziellen Investments einer digitalen Umsetzung. Agiler Ansatz für schnelle Ergebnisse In diesem Spannungsfeld bietet sich eine iterative agile Vorgehensweise bei der Umsetzung geradezu an. Nach einem ersten Ideen-Workshop lässt sich in enger Abstimmung aus der Idee in nur 1 bis 2 Wochen ein erstes funktionsfähi- ges Software-Produkt entwickeln. Ein so wörtlich erstes „minimal lauffähiges Pro- dukt“ (Minimum Viable Product) ist die erste minimal funktionsfähige Iteration eines Produkts. Es wird entwickelt, um mit minimalem Aufwand den Kunden-, Markt- oder Funktionsbedarf zu decken und handlungsrelevantes Feedback zu gewährleisten.Digitale Ideen testen Mit diesem MVP kann die digitale Pro- duktidee kurzfristig und einfach am Markt getestet werden. Unternehmen erhalten schnell und effizient Feedback ihrer Nut- zer, um so ihre Idee den Bedürfnissen ihrer Kunden und des Marktes anzupassen und weiterzuentwickeln. Durch die geringe Anfangsinvestition minimieren Unterneh- men bei diesem Vorgehen ihr Risiko bei gleichzeitig maximalem Anwender-Feed- back und kurzer Entwicklungsdauer. Hierbei ist die Einbindung des Auftrag- gebers in den Entwicklungsprozess ein integraler Bestandteil jedes Projektes. Kommunikation ist eine Grundvorausset- zung für eine erfolgreiche Zusammen- arbeit. Ein agiles Vorgehen bedeutet, dass der Entwicklungspartner in kurzen vorde- finierten Iterationsschritten (Sprints), normalerweise alle 2 Wochen, dem Auf- traggeber einen Einblick in den aktuellen Entwicklungsstand in Form von Demons- trationen oder ausführbaren Prototypen präsentiert. Daraus gewonnenes Feed- back fließt direkt in den weiteren Ent- wicklungsprozess ein. Dadurch hat der Auftraggeber zu jedem Zeitpunkt trans- parenten Einblick in das Projekt und kann Änderungswünsche jederzeit äußern. Begeisterung wecken Dieses iterative Vorgehen versteht sich als Rahmenmodell und ist darauf aus- gerichtet, mit minimalen Formalismen, in kleinen Teams und in kurzen Arbeits- phasen funktionsfähige Software zu pro-duzieren. Nur wenn Digitalisierungspro- jekte Begeisterung bei Kunden und Mit- arbeitenden hervorrufen und einen echten Wow-Effekt bewirken, sind sie auf Dauer erfolgreich und erlangen Akzeptanz. Consist bietet als Entwicklungspartner mit langjähriger Erfahrung Werkzeuge und Methodiken an, die eine erfolgreiche Umsetzung garantieren. So unterschied- lich einzelne Projekte auch sind, so bietet eine iterative, enge Zusammenarbeit die wesentliche Grundlage für einen beider- seitigen Erfolg. Praxiserfahrung Zahlreiche Projekte, wie z. B. ein Rech- nungsportal für Debitoren und Kredito- ren, ein Portal für über 40.000 Mitglie- der und Kunden sowie die Umsetzung einer innovativen Geschäftsidee eines Spin-Offs im IoT-Bereich konnten so im letzten Jahr erfolgreich umgesetzt wer- den. Die positive Erfahrung mit unseren Kunden auch in Zeiten der Corona-Pan- demie zeigt, dass sich diese Prozesse reibungslos ebenfalls online und inter- aktiv durchführen lassen. Nutzen auch Sie die Zeit und entwickeln Sie mit uns aus einer Geschäftsidee ein digitales Produkt.Info und Kontakt Consist Software Solutions GmbH Christianspries 4, 24159 Kiel E-Mail: mueller-lupp@consist.de Telefon: +49 (0)4 31 / 39 93 – 565 Weitere Informationen: www.consist.de/agil830005194041_830005195194041_PR_plus_Anzeige.indd 1830005194041_830005195194041_PR_plus_Anzeige.indd 1 16.03.21 12:2516.03.21 12:25Digitalisierung mit Wow-Effekt in Wirtschaft zwischen Nord- und Ostsee, April 2021 Digitalisierung mit Wow-Effekt in Wirtschaft zwischen Nord- und Ostsee, April 2021 Adobe InDesign 16.1 (Macintosh) Adobe PDF Library 15.0


Fachbeitrag Consist_Praxisbericht SIEM und SOAR_ BAITmen für den Bankbetrieb_Bankpraktiker (pdf)

Fachbeitrag Praxisbericht SIEM und SOAR in der Finanzbranche Fachbeitrag Praxisbericht SIEM und SOAR in der Finanzbranche Adobe Acrobat Pro DC 19.10.20098 Adobe Acrobat Pro DC 19.10.20098


Fachbeitrag DevOps in JavaSPEKTRUM 6_2020 (pdf)

DevOps – Patterns und Praktiken InterviewAndré Christ, Gründer von LeanIX über die zentrale Rolle der Architektur und den Wandel zur produktorientierten ITFachthemenEin Architekturstack für Data Science mit Java, Python und JavaScript Lösung für die Digitalisierung mithilfe der richtigen ArchitekturG3 0325 www.javaspektrum.de Ausgabe 6/2020 D € 9,90 · A € 10,90 · CHF 18,20De vOps – P at te rn s und Pr akti ke n Magazin für professionelle Entwicklung und digitale TransformationSonderbeilage: German Testing Magazin „Lean Quality Management“Wie DevOps mit Kubernetes Qualitätssicherungen ermöglichtAutomatische Verteilung von Microservices – ein Praxisbericht Son derdruck fürSonderdruck aus JavaSPEKTRUM 6/2020Ganz automatisch DevOps in der Praxis – Microservices verteilen mit Terraform Matthias HänsgenDie Verteilung von Microservices ist eine komplexe Herausfor­ derung, die nur vollautomatisiert effizient erfolgen kann. Ma­ nuelle Arbeitsschritte innerhalb dieses Prozesses sind langsam und fehleranfällig und stellen somit ein grundlegendes Pro­ blem dar. Eine Lösung ist der Einsatz von Infrastructure­as­Code (IaC)­Werkzeugen zur Automatisierung dieses Prozesses. Der Artikel stellt eine Best Practice zur Verteilung von Microservices mit Fokus auf Spring Boot und Terraform vor.Auch in der Welt der monolithischen Softwarearchitekturen stellt sich der Softwareverteilungsprozess als ein komplexer Vorgang dar. In der Zeit vor DevOps war dieser Prozess durch die folgenden Randbedingungen geprägt:­ Trennung der Verantwortlichkeiten zwischen Entwicklung (Dev) und Betrieb (Ops), was in der Realität zu entsprechenden Rei- bungsverlusten führte,­ langwierige Prozesse zur Beschaffung, Installation und dem Management von Hardware,­ viele manuelle Prozess-Schritte, die langsam, fehleranfällig und oftmals nicht sicher reproduzierbar waren,­ langer Zeitraum bis zur Produktivsetzungen einer neuen Soft- wareversion (Time-to-Market),­ nur wenige Releases pro Jahr mit einem hohen Fehlerrisiko.Die Herausforderungen bei der Softwareverteilung von MicroservicesIn einer Microservices-Architektur potenziert sich dieses Problem, da nicht ein Service (Monolith) mit allen seinen beteiligten Komponenten (z. B. Datenbank) betrieben werden muss, sondern in Services. In der Praxis verschärft sich dieses Problem noch, da nicht nur eine Instanz der Applikation pro Release ausgerollt werden muss, sondern viele (Testumgebung Entwickler, Testumgebung Fachbereich, Produktivum- gebung, ggf. mit Blue-Green-Deployment usw.). Hieraus ergibt sich für den Produktivbetrieb von Microservices-Applikationen die zwin- gende Notwendigkeit einer automatisierten Softwareverteilung. Basis hierfür sind die Konzepte und Werkzeuge aus der DevOps-Bewegung.IaC: der Schlüssel zur Automatisierung Die Kernidee hinter Infrastructure as Code (IaC) ist, dass sich jede Infrastrukturkomponente durch Software erzeugen, konfigurieren und zerstören lässt. Dieser Ansatz eröffnet völlig neue Möglichkei- ten für die Softwareverteilung und den Betrieb von Applikationen, da sich diese Prozesse nun vollständig durch Software automati- sieren lassen. Grundlage hierfür sind IaC-Werkzeuge, die die fol- genden Aufgaben unterstützen:(Copyright/Quelle: ©Tierney - stock.adobe.com)SCHWERPUNKTTHEMA2 JavaSPEKTRUM 6/2020­ Konfigurationsmanagement,­ Server Templating,­ (Anwendungs-)Orchestrierung,­ Provisionierung von Ressourcen. Konfigurationsmanagement-Werkzeuge dienen zur Installation und zum Management von Software auf bestehenden Servern. Sie stellen sicher, dass auf einem Server die richtige Software in der richtigen Version und in der richtigen Konfiguration vorhanden ist. Server-Templating-Werkzeuge dienen zur Erstellung eines Server- oder Container-Images mit einem spezifischen Soft- wareinstallationsstand. Beide Werkzeugtypen dienen prinzipiell demselben Zweck, einen Server/Container in einem spezifischen Softwarestand bereitzustellen. Sie unterscheiden sich aber in der Arbeitsweise und dem Zustand der erzeugten Infrastruktur.Ein Orchestrierungswerkzeug organisiert und koordiniert den Betrieb der verschiedenen Einzel-Services/-Dienste, aus denen eine gesamte Applikation besteht. Hierzu gehören Aufgaben wie das Ausrollen von Softwareversionen, Lastverteilung, Skalierung, Überwachung und Neustart von Services.Die Erzeugung von Infrastrukturkomponenten wie Servern, Netzwerken, Datenbanken, Caches usw. erfolgt mittels speziel- ler Provisionierungswerkzeuge. Diese Werkzeug-Palette bildet die Grundlage für die Automatisierung der Softwareverteilung. Für die zielgerichtete Auswahl eines (oder mehrerer) IaC-Werkzeuge ist ei- ne Betrachtung der wesentlichen Differenzierungsmerkmale von grundlegender Bedeutung (s. Abb. 1).IaC­Werkzeuge – Was sind die prinzipiellen Unterschiede? Aus dem Blickwinkel der automatisierten Softwareverteilung sind die folgenden Kriterien von maßgeblicher Relevanz für die Bewer- tung von IaC-Werkzeugen:­ Welche Funktionalitäten zur Provisionierung und Konfiguration bietet ein Werkzeug?­ Ist die erzeugte Infrastruktur veränderbar oder nicht?­ Auf welchem Programmier-Paradigma basiert das Werkzeug?­ Erfordert das Werkzeug die Installation zusätzlicher Software für den Betrieb?­ Wie ausgereift und verbreitet ist das Werkzeug?Die Grenze zwischen Konfigurationsmanagement- und Provisionie- rungswerkzeugen ist fließend. Jeder der beiden Typen bietet auch Funktionalitäten des jeweils anderen Typs an. Basis für eine Automa- tisierung der Softwareverteilung ist ein Provisionierungswerkzeug, das in der Lage ist, für die Ziel-Plattform (z. B. AWS Cloud) alle benö- tigten Infrastrukturkomponenten bereitzustellen und zu verwalten. Wenn dieses Werkzeug darüber hinaus grundlegende Konfigurations- management-Funktionalitäten bietet, kann auf ein zusätzliches Kon- figurationsmanagement-Werkzeug verzichtet werden. Hierdurch wird in der Praxis der Softwareverteilungsprozess vereinfacht.Wie bereits beschrieben, dienen sowohl Konfigurationsma- nagement-Werkzeuge als auch Server-Templating-Werkzeuge der Bereitstellung von Servern/Container mit einem definierten Soft- warestand. Sie unterscheiden sich aber in der Arbeitsweise, da die über Konfigurationsmanagement-Werkzeuge erstellten Komponen- ten veränderbar sind, die über Server Templating erzeugten nicht (immutable). Der Ansatz auf Basis von „Immutable Infrastructure“ sorgt in der Praxis für Klarheit, da immer ein definierter, reprodu- zierbarer Stand in Betrieb ist. Unbeabsichtigte, manchmal subtile Konfigurationsänderungen mit Seiteneffekten an einem Produk- tivsystem werden hierdurch vermieden.IaC-Werkzeuge nutzen zur Automatisierung von Funktionalitä- ten eine Programmiersprache. Hierbei kommen die folgenden Pro- grammier-Paradigmen zum Einsatz:­ Prozedurale Programmierung­ Deklarative Programmierung Die prozedurale Programmierung definiert die (Arbeits-)Schrit- te, wie ein bestimmtes Ergebnis erreicht wird (z. B.: Erzeuge ei- nen Server vom Typ X). Bei der deklarativen Programmierung steht die Beschreibung des Ergebnisses/Problems im Vordergrund (z. B.: Es sollen immer 5 Server-Instanzen vom Typ X vorhanden sein). Da Infrastrukturkomponenten in großem Maße zustandsbehaftet sind, ist die prozedurale Programmierung für diesen Anwendungs- fall deutlich komplexer und schlechter zu modularisieren als eine deklarative Lösung. Deklarative Programmierung basiert auf einer umfassenden Abstraktion des zugrunde liegenden Problems, was eine längere Einarbeitung erfordert als der Einstieg in eine proze- durale Programmiersprache. Nachdem die Einstiegshürde für eine deklarative Programmiersprache erklommen wurde, führt dies in der Praxis aber zu einfacherem und wartbarerem Code.Einige Werkzeuge erfordern die Installation von zusätzlicher Software unter anderem auf den administrierten Servern. Hier- bei kann es sich um einen zusätzlichen Master-Server handeln, der Informationen zentral bereitstellt und verwaltet, oder auch um Agenten, die auf den jeweiligen Servern installiert werden müssen. Ein solcher Ansatz bedingt immer zusätzliche Wartungsaufwände für den Betrieb dieser Komponenten und erzeugt darüber hinaus ein zusätzliches, potenzielles Sicherheitsrisiko durch eine vergrö- ßerte Angriffsfläche.Neben den rein technischen Aspekten eines Werkzeugs sind da- neben auch die Ausgereiftheit und dessen Zukunftsperspektiven von Bedeutung. Indikatoren hierfür sind die Verbreitung des Pro- dukts, die Größe und Agilität der Community und wie lange ein Produkt bereits im praktischen Einsatz ist.Die Eignung und Bewertung eines spezifischen Werkzeugs ist in hohem Maße von den Charakteristika des zu automatisierenden Szenarios abhängig. Grundlegende Faktoren sind hierbei die Ziel- Matthias Hänsgen arbeitet als Sys- temarchitekt für die Consist Software Solutions GmbH. Seit über 25 Jahren entwickelt er geschäftskritische An- wendungen auf Basis von objektorien- tierten Technologien. Sein aktueller Tätigkeitsschwerpunkt liegt in der Entwicklung von Microservices-An- wendungen. E-Mail: haensgen@consist.deAbb. 1: Exemplarische Übersicht IaC-WerkzeugeSCHWERPUNKTTHEMAwww.javaspektrum.de 3plattform, auf der eine Applikation betrieben werden soll, und deren Architektur.Die Basis ­ Entscheidung für eine Microservices­ Architektur Die Wahl einer konkreten Architektur ist immer eine sehr individu- elle Entscheidung eines Unternehmens. Sie wird sowohl geprägt durch deren Historie (z. B. Programmiersprachen-Know-how) als auch durch aktuelle Rahmenbedingungen (was fordert der Markt, Plattformen bei Kunden usw.). In dem Anwendungsfall stellten sich die Rahmenbedingungen wie folgt dar:­ langjähriges Know-how in Projekten, basierend auf dem Spring Framework,­ die Kunden nutzen sowohl monolithische als auch Microser- vices-basierte Lösungen in Abhängigkeit von der Projektgröße,­ fundiertes Know-how in der Entwicklung von User Interfaces auf Basis von Angular,­ die Applikationen werden derzeit sowohl On-Premise als auch in der Cloud betrieben.Basierend auf diesen Prämissen, wurde eine (Microservices-)Archi- tektur und Zielplattform (s. Abb. 2) mit den folgenden Eckpunkten definiert:­ Nutzung von Spring Boot sowohl zur Entwicklung monolithi-scher Applikationen (kleine Anwendungen) als auch von Micro- services-Applikationen (große Anwendungen),­ Angular als User Interface Framework,­ Docker als eine einheitliche (Container-basierte) Laufzeitumge- bung für alle Zielplattformen (On-Premise, Cloud),­ Kundenspezifische Docker-basierte Orchestrierungsplattform.Der Einsatz von Spring Boot bietet den Vorteil, für die unterschied- lichen Applikationsarchitekturen ein einheitliches Framework ein- zusetzen. Cloud-Spezifika können mittels Spring Cloud abgebildet werden.Der Einsatz von Docker ist ein leichtgewichtigerer Ansatz als die Verwendung von virtuellen Maschinen und reduziert den Over- head in den Entwicklungszyklen durch kürzere Erzeugungszeiten für die Docker Images und durch kürzere Startzeiten. Darüber hin- aus bietet dieser Ansatz den Vorteil, dass die Betriebssystemspe- zifika abstrahiert werden und die erzeugte Laufzeitumgebung im- mutable ist (in Analogie zu Server Templating).Die Orchestrierungsplattform einer Applikation hat in der Pra- xis die größten Auswirkungen auf deren Betrieb. Eine umfassen-de Plattform bietet umfangreiche Funktionalitäten wie automati- sches Deployment ohne Unterbrechung, automatisierte Skalierung, Überwachung und gegebenenfalls Neustarten von defekten Kom- ponenten. Diese Funktionalitäten sind nur aufwendig selbst zu re- alisieren, sodass der Einsatz einer Orchestrierungsplattform für ei- ne Microservices-Architektur ein Muss ist. Für Kubernetes spricht die Verfügbarkeit auf vielen Cloud-Plattformen als SaaS und die Möglichkeit, alternativ für eine On-Premise Lösung selbst ein Kubernetes Cluster zu betreiben. Ein Manko hierbei ist die Kom- plexität der Installation und des Betriebs eines solchen Clusters On-Premise.Im nächsten DevOps-Schritt muss nun für diese konkrete Anwendungsarchitektur und Laufzeitumgebung im Rahmen der CI/CD-Aktivitäten eine automatisierte Softwareverteilung konzi- piert werden.Die passende Plattform für die automatisierte Softwareverteilung Die Auswahl einer spezifischen Plattform mit ihren Werkzeugen ist in hohem Maße von den individuellen Prioritäten eines Unterneh- mens/Teams abhängig. In diesem Anwendungsfall waren die wich- tigsten Einflussfaktoren die folgenden:­ Die Infrastruktur soll aus Robustheitsgründen „immutable“ er-zeugt werden.­ Einfachheit der Lösung – möglichst wenige Standard-Werkzeu- ge mit einem geringen Anteil an Individuallösungen und An- passungen.­ Ein einheitliches Verfahren und Werkzeug-Set für alle Ziel-Platt- formen (On-Premise, verschiedene Cloud-Anbieter).­ Automatisierung des CI-/CD-Prozesses auf Basis des Open- Source-Automation-Servers Jenkins.Da durch die Architekturentscheidung bereits der Fokus auf dem Einsatz von Server Templating gerichtet war, hat das Konfigurati- onsmanagement bei der Entscheidung für eine Werkzeug-Lösung nur eine untergeordnete Rolle gespielt. Kern der Automatisierung ist ein leistungsfähiges Provisionierungswerkzeug. Die Entschei- dung für Terraform basierte hierbei auf den folgenden Gründen:­ Nutzung einer deklarativen Programmiersprache,­ Erzeugungsmöglichkeiten für alle benötigten Infrastruktur-komponenten (z. B. Datenbanken, Cloud-Ressourcen usw.),­ Unterstützung verschiedener Cloud-Anbieter,Abb. 2: Exemplarische Micro- services-ArchitekturAbb. 3: Exemplarische Plattform für die automatisierte Softwarever- teilungSCHWERPUNKTTHEMA­ befriedigende Konfigurationsmanagement-Funktionalitäten. Als unterstützendes Server-Templating-Werkzeug zur Bereitstel- lung von Kubernetes On-Premise wurde aufgrund der Eignung für den Produktivbetrieb und der Erzeugung von Immutable-Infra- strukturen Packer ausgewählt (s. Abb. 3).Best Practice – Terraform in der Praxis Die Praxis hat gezeigt, dass für einen effektiven Terraform-Ein- satz die Beachtung der folgenden Punkte von grundlegender Be- deutung ist.Terraform State File und Remote Backends Terraform speichert den Zustand seiner Ausführung und damit auch den Zustand der provisionierten und konfigurierten Infrastruktur in einem State File. Die Verfügbarkeit und Integrität dieser Datei ist von zentraler Bedeutung für Terraform. Für Produktivumgebun- gen oder Umgebungen, auf die mehrere Personen administrativen Zugriff haben, muss diese Datei an einer zentralen, sicheren Stelle gespeichert werden. Das bedeutet, dass der State File geschützt werden müssen vor versehentlichen Änderungen, gleichzeitigem Zugriff mehrerer Benutzer und unbefugter Einsicht in die im Klar- text enthaltenen Passwörter. Hierfür bietet Terraform vorgefertig- te Remote Backends, die die sichere Speicherung in verschiedenen Umgebungen ermöglichen (z. B. AWS S3 Bucket).Abbildung von Stages in Terraform In einem nächsten Schritt muss konzeptionell das Problem der Handhabung der State Files für die verschiedenen Stages einer Applikation gelöst werden. Ein Ansatzpunkt hierfür ist die Nut- zung von Terraform-Workspaces zur Abbildung der verschiede- nen Stages. Der Nachteil hierbei ist, dass alle Workspace-Varian- ten/Stages als verschiedene State Files innerhalb eines zentralen Remote Backends gespeichert werden – das heißt, es gibt zum Beispiel keine physische Trennung zwischen Test- und Produk-tions-Stage. Eine Abbildung von Stages für den Produktivbetrieb mittels Workspaces ohne zusätzliche Maßnahmen ist nicht empfeh- lenswert, da keine echte Isolation der einzelnen Stages gegeben ist. Hierdurch kann bereits durch eine kleine Unachtsamkeit ein Ausfall des gesamten Produktivsystems erfolgen.Die einfachste Lösung für dieses Problem ist die Abbildung und Isolation der einzelnen Stages über eine Terraform-Directo- ry-Struktur mit je einem Subdirectory pro Stage. Jedes Stage-Sub- directory enthält den Terraform-Sourcecode für die jeweilige Stage und es wird bei der Terraform-Ausführung jeweils ein separater Re- mote State File erzeugt, der auch über eine eigene Autorisierung verfügen kann (z. B. Trennung Zugang Test-System/Produktiv-Sys- tem). Ohne weitere Maßnahmen würde dieser Ansatz jedoch zu ei- ner erheblichen Code-Duplizierung zwischen den einzelnen Stages führen. Um dies zu verhindern, bietet Terraform den Modul-Mecha- nismus an.Terraform­Module Terraform-Modules (s. Abb. 4) unterstützen die Möglichkeit, Funk- tionsbibliotheken mit wiederverwendbaren Bausteinen aufzu- bauen. Im konkreten Microservices-Anwendungsfall wurden zur Strukturierung des Terraform-Codes die folgenden Modul-Typen verwendet:­ Resource-Definition-Modul,­ Infrastructure-Layer-Modul,­ Microservices-Modul. Resource-Definition-Module dienen der zentralen Definition von Ressourcen, die Microservices übergreifend genutzt werden. Im konkreten Fall, der in einer Amazon-AWS-Umgebung betrieben wird, fallen hierunter zum Beispiel die Definitionen von zent- ralen Message-Queues für den Datenaustausch zwischen Micro- services.Die Infrastructure-Layer-Module dienen dazu, die verschiede- nen Schichten (Netzwerk, Security, Datenbank, eigentliche Ap- plikation) einer Applikation abzubilden. Da die Erzeugung von Abb. 4: Aufbau Terraform-ModulAufbau Terraform Modul• Jedes Verzeichnis in einem Terraform-Projekt ist ein Modul• Jedes Modul hat • Eingangsparameter (variable), • Ausgangsparameter (output) und • Ressourcendefinitionen (resource).// define input parameter variable "service_name" {description = "the name of the service" } resource " aws_ecs_service" "ecs_service_template" {name = var.service_name // uses variable ... // more parameters must be defined ... } // define output parameter output "service_arn" { // ressources can be referenced by its name value = aws_ecs-service.ecs_service_template.service_name description = "the name of the service"}// create ecs-service module “service1" {source = "templates/ecs-service" service_name = "myService1"}Modul-Definition in ./templates/ecs-service/main.tfModul-Verwendung in ./services/service1/ecs-service.tfSCHWERPUNKTTHEMAInfrastrukturkomponenten und Datenbanken in der Regel zeit- aufwendig ist, bietet es sich unter anderem zur Beschleunigung von Entwicklertests an, auch die Terraform-Module zu „schichten“. Hierdurch ist es zum Beispiel beim Testen möglich, nur die Appli- kationsschicht zu zerstören und neu zu deployen – ohne die unter- liegende Infrastruktur zeitaufwendig neu zu erzeugen (s. Abb. 5).Die Layer unter infrastructure-layer müssen der Reihenfolge nach aufsteigend ausgeführt werden, um eine Anwendungsinstanz auf- zubauen, und in der umgekehrten Reihenfolge ausgeführt werden, um die Instanz wieder abzubauen. Dazu werden die Terraform-Be- fehle apply und destroy in jedem Layer-Verzeichnis/Modul ausge- führt.Die Microservices-Module beinhalten alle Terraform-Definitionen für die konkreten Microservices-Komponenten, die nicht über die In- frastructure-Layer- und Resource-Definition-Module bereitgestellt werden (jeder Microservice ist hierbei ein eigenes Modul). Zur Mi- nimierung der Cloud-Kosten im Rahmen von Entwicklertests wurden die Layer 03_persistence und 04_application separiert, sodass die Ap- plikation gestoppt/zerstört werden kann, ohne die Daten zu ver- lieren.Die Versorgung der einzelnen Terraform-Module mit Ausgabe- parametern aus anderen Modulen in einer Remote-Backend-Umge- bung wurde durch die Verwendung von Terraform-Remote-State- Data-Sources gelöst.Terraform – Sourcecode­Management und Versionierung Der Terraform-Sourcecode muss wie jeder andere produkti- ve Sourcecode vollständig und versioniert in einem Source- code-Management-System verwaltet werden (z. B. Git). Darüber hinaus bietet Terraform die Möglichkeit, seine eigenen Module als Git-Module zu verwalten. So können Terraform-Module di- rekt über entsprechende Git-Referenzen miteinander verbunden werden. Im konkreten Fall wurden von einem Kernteam komple- xe Infrastruktur-Basis-Funktionalitäten als zentrale Terraform Module entwickelt und in einem Git-Repository zur Verfügung gestellt. Diese Module wurden dann von den Entwickler-Teams zur Erstellung der Microservices-spezifischen Terraform-Module genutzt.Terraform – Was ist sonst noch zu beachten? Die sichere, verschlüsselte Speicherung von Autorisierungsinforma- tionen (z. B. Datenbank-Benutzer und dessen Passwort) im Rahmen einer automatisierten Softwareverteilung ist ein prinzipielles Prob- lem. Terraform unterstützt dies durch die Anbindung verschiedener, sicherer Speichermedien (z. B. AWS Secrets Manager). Ein weiterer Punkt, der für Produktivumgebungen berücksichtigt werden muss, ist, dass persistente Informationen wie Datenbankinhalte, Logda- teien usw. beim Zerstören der Umgebung erhalten bleiben müssen.Für die Entwicklung und das Testen von Terraform ist die Erken- nung von Abweichungen an einer deployten Stage in Bezug zur de- finierten Konfiguration (Drift) nützlich. Terraform unterstützt die Erkennung durch den Befehl terraform refresh.Abschließend sei noch erwähnt, dass eine produktionsreife, au- tomatisierte Softwareverteilung generell ein (zeit-)aufwendiges Unterfangen ist. Erste Erfolge, indem man „schnell“ eine kleine Ap- plikation ausgerollt hat, täuschen oft. Um die Softwareverteilung einer durchschnittlichen Applikation in der Praxis vollständig und stabil zu automatisieren, vergehen in der Regel mehrere Monate.Fazit und Ausblick Der vorliegende Artikel beschreibt anhand eines Praxisbeispiels auf Basis von Spring Boot, wie eine Microservices-Applikation au- tomatisiert verteilt und betrieben werden kann. Schlüssel hierfür ist der Einsatz von IaC-Werkzeugen für die Erzeugung, Konfigurati- on und das Zerstören „beliebiger“ Infrastrukturkomponenten mit- tels Software. Kernidee der Lösung ist der Einsatz von Server Templating zur Erzeugung von Immutable Infrastructure. Hierdurch kann auf ein zusätzliches, dediziertes Konfigurations-Management-Werkzeug verzichtet werden, was die Gesamtlösung technisch vereinfacht. Die Provisionierung und Konfiguration der Applikations-Ressour- cen erfolgt mittels Terraform. Ausschlaggebend für die Auswahl ist das Terraform-Provider-Konzept, das transparent den Betrieb der Applikation auf unterschiedlichen (Cloud-)Zielplattformen un- terstützt.Die Grundlage der Best Practice beim Einsatz von Terraform ist die Verwendung einer Directory-Struktur, die die einzelnen Sta- ges einer Applikation isoliert, um somit Seiteneffekte im Betrieb zu verhindern. Darüber hinaus ist die Nutzung des Terraform-Mo- dul-Konzepts zur Erzeugung von wartbarem Code und zur Vermei- dung von Code-Duplizierung von fundamentaler Bedeutung. Im Praxisbeispiel wurden Module zur Definition von wiederverwendba- ren Ressourcen, von Infrastruktur-Komponenten in Form von Lay- ern und zur Beschreibung vollständiger Microservices verwendet.Durch die DevOps-Bewegung und den Einsatz von IaC hat sich in den letzten Jahren bereits eine dramatische Verbesserung be- züglich Geschwindigkeit, Häufigkeit und Qualität der Softwarever- teilung ergeben. Da die Entwicklung in diesem Bereich rasant ver- läuft, ist sicherlich auch in den nächsten Jahren mit spannenden Neuerungen zu rechnen.Literatur und Links [Bri19] Y. Brikman, Terraform: Up & Running, 2nd Edition, O'Reilly Media, Inc., 2019 [Kim16] G. Kim, J. Humble, P. Debois, J. Willis, The DevOps Handbook, IT Revolution Press, 2016 [Tur17] J. Turnbull, The Packer Book, Turnbull Press, 2017Abb. 5: Terraform-Module - BeispielstrukturSCHWERPUNKTTHEMA6 JavaSPEKTRUM 6/2020Adobe InDesign 14.0 (Macintosh) Adobe PDF Library 15.0


Fachbeitrag-Interview-kes-052017-web (pdf)

Fachbeitrag Interview Compliance kes Fachbeitrag Interview Compliance kes Adobe Photoshop CC 2017 (Windows) Adobe Photoshop for Windows -- Image Conversion Plug-in


Flyer Cloud Services von Consist - eingesetzte Technologien (pdf)

Cloud Services von Consist – eingesetzte Technologien Der fortschreitende digitale Wandel in Unternehmen hat in den letzten Jahren eine IT-Modernisierungs- welle ausgelöst – von IT-Legacy-Systemen hin zu modernen und cloudbasierten IT-Systemen. Wir unter- stützen Sie umfassend bei der Transformation Ihrer IT in die Cloud.Cloud-Leistungen von Consist Cloud-Architektur und -Orchestrierung Modernisierung von Business-Applikationen • Betrieb der IT-Systeme in Hybrid- oderMulti-Cloud• Automatisierung von Prozessen• Migration• Reengineering• individuelle Erweiterungen• Automatisierung von FachprozessenIT- und Datensicherheit in der Cloud Unternehmensdaten in der Cloud• Betrieb sicher und compliant • Einheitliche Datenbasis für umfassende Analysen Technischer Fokus in den Kundenprojekten Consist setzt seit vielen Jahren erfolgreich Cloud-Projekte um. Diese Kundenprojekte sind unter fol- genden Rahmenbedingungen realisiert worden:Cloud-Anbieter Identity-Mangement Agile Softwareentwicklung• Amazon Web Services (AWS)• Microsoft Azure• Okta• Amazon Cognito• Kollaboration: Atlassian Confl uence• Projekt-Planung und -Verfolgung: Atlassian JiraDigitale TransformationDevOps-Technologien in Cloud-Projekten In Cloud-Projekten setzen wir auf die DevOps-Methodik, die eine enge Zusammenarbeit aller Beteiligten ermöglicht und dadurch schnell qualitativ hochwertige Ergebnisse liefert. Technisch unterstützen wir diesen Prozess durch automatisierte Continuous-Integration-/Deployment-Prozesse, basierend auf der Open-Source-Lösung Jenkins.Continous Integration / Deployment Pipeline1. Code 2. Build 3. Test • Server-Centric: Java - Spring Boot / Cloud• Serverless: AWS Lambda (Java, Typescript)• User Interface: Angular• Versionsmanagement: Git• Buildmanagement: Maven, npm• Unit-Tests Server-side: Junit, Spring Test support, Hamcrest• Unit-Tests UI: Jasmine, Karma• Integration-Tests: Cucumber (REST-Client für Service- Tests, Selenium für UI-Tests)4. Package 5. Release 7. Monitor• Container-Virtualisie- rung: Docker• Container-Orchestrie- rung: Kubernetes, Amazon ECS • Jenkins via Skript • Logging: Distributed Logging (Spring cloud sleuth / zipkin), LogAggregation• Monitoring: AWS CloudWatch, AWS X-Ray, Splunk, Elastic Stack6. Configure• Provisionierung und Configuration-Manage- ment: TerraformDigitale TransformationConsist Software Solutions GmbH  ·  Christianspries 4  ·  24159 Kiel  ·   www.consist.deIhr Kontakt: Dr. Thomas Müller-Lupp0431 3993-565 mueller-lupp@consist.deIhr Kontakt: Michael Meisner0431 3993-671 meisner@consist.deFlyer Cloud Services von Consist - eingesetzte Technologien Flyer Cloud Services von Consist - eingesetzte Technologien Adobe InDesign CS6 (Macintosh) Adobe PDF Library 10.0.1


Flyer IT-Security web (pdf)

Sprechen Sie uns an: info@consist.deTop-Lösungen gegen Cyber-Angriffe Managen Sie Ihre IT-Risiken in Echtzeit!Angesichts der ständig zunehmenden Datenmenge, der rasant steigenden Vernetzung von Informa- tionen und stets neuer Sicherheitsbedrohungen und -vorschriften wird IT-Security für Unternehmen immer wichtiger. Sie müssen die eigenen Netze und Daten bestmöglich sichern und gleichzeitig ihre Sicherheitslage lückenlos dokumentieren. Consist bietet Ihnen hierfür innovative, umfassende Lösungen einschließlich der begleitenden Services. ProjekteUnsere Leistungen  Entdecken, Reagieren, Dokumentieren Unsere Security-Lösungen lassen Sie interne und externe Angriffe in Echtzeit erkennen und regelbasiert abwehren. Automatisch entsteht dazu eine vollständige Dokumenta- tion.  Zertifi zierte Consultants Für Ihre Security-Projekte stehen erfahrene, zertifi zierte Consultants bereit.  Bewährte Standardlösungen Wir nutzen ausschließlich bewährte Tools für Ihre Security-Projekte:  Splunk  ObserveIT  IntellinXIhr Nutzen  Risiken reduzieren Sie schützen Ihr Unternehmen vor Cyber- Angriffen von innen und außen – systemü- bergreifend und ganzheitlich.  Compliance-Aufl agen erfüllen Sie erfüllen umfassend die Aufl agen aus Compliance und Risikomanagement.  Sicherheit schnell erreichen Leistungsstarke, in der Praxis bewährte Lö- sungen ermöglichen Ihnen die Umsetzung in kürzester Zeit. Ihr Kontakt: info@consist.de, 0431 / 3993-672 Consist Software Solutions GmbH, Falklandstr. 1-3, 24159 Kiel, www.consist.deEine gute WahlÜber 30 Jahre Erfahrung in erfolgreicher Softwareentwicklung und -wartung, Know-how in ganz unterschiedlichen Branchen und Technologien, Herstellerneutralität und eine ausgeprägte Kümmerer-Mentalität – all das bietet Ihnen Consist. Sie können sich auf uns verlassen, denn wir leben die Übernah- me von Verantwortung als Ihr Partner. Ihr IT-Partner Consist Software SolutionsWir sind darauf spezialisiert, Ihre IT-Bedürfnisse zu erkennen und Sie mit passender Software und maß- geschneiderten Services zu unterstützen: ganz gemäß unserem Motto IT that works. Projekte In time. In budget. In quality.Managed Services Software und Systeme in besten Händen.Produkte Mit Sicherheit eine innovative Lösung.untitled Acrobat Distiller 15.0 (Windows)


Flyer Managed Services 2019 (pdf)

Sprechen Sie uns an: info@consist.deLegacy-Systeme in besten Händen Consist Managed ServicesSoftware-/Systembetreuung: Sie erhalten ein Dienstleistungsmodell, das durch Verantwortungsüber- nahme nicht nur verlässlich und effi zient, sondern auch transparent und kontrollierbar ist. So entsteht Vertrauen in der Zusammenarbeit. Profi tieren Sie von unserer jahrelangen Erfahrung.Managed ServicesManaged Services bei Consist  Wir übernehmen Anwendungen, die Sie nicht mehr betreuen können oder wollen  Wir übernehmen Ihre Abläufe und Prozesse, beraten und unterstützen Sie bei Neuerungen  Wir entwickeln und verbessern Ihre Legacy- Anwendungen nach Ihrem Bedarf  Ihre Datenbanken sind bei uns in guten Händen  Arbeitsvorbereitung kennen und können wir  Komplexe Fachlichkeit mögen wir  Unsere Teams haben eine gemischte Altersstruktur  Wir arbeiten erfolgreich Studien- abgänger in die klassischen Welten einIhr Nutzen  Sichere und zeitgerechte Übernahme der Fachthemen  Qualitätsgesicherter Betrieb Ihrer Legacy- Applikationen bis zu deren Einstellung  Optimierung, Weiterentwicklung und Migration der Applikationen bei Bedarf  Flexible Vertragslaufzeiten und ein transparentes Abrechnungsmodell„What is a defi nition of a legacy system? One that works!“(David Mount, University of Maryland)Das Consist-Legacy-Portfolio – Wählen Sie Ihre Kombinationuntitled Acrobat Distiller 15.0 (Windows)